Trong những năm gần đây, các nhà nghiên cứu và những người theo dõi khí hậu, gióng lên hồi chuông cảnh báo về tác động của trí tuệ nhân tạo (AI) đối với môi trường. Các mô hình ngôn ngữ lớn (LLM) tiên tiến và phổ biến, nằm trong các trung tâm dữ liệu lớn, tiêu thụ một lượng điện đáng kể để tính toán và làm mát máy chủ.

AI “suy nghĩ” tạo ra rất nhiều khí thải

Bất kể bạn hỏi AI chuyện gì, nhập một câu hỏi hoặc cụm từ vào một trong những nền tảng này, mô hình sẽ đưa ra câu trả lời. Để tạo ra thông tin này, không cần biết câu trả lời đúng đến đâu, mô hình sử dụng các mã thông báo. Mã thông báo là các từ hoặc một phần của từ được chuyển đổi thành chuỗi số có thể được LLM xử lý.

Quá trình chuyển đổi này, cũng như các quy trình tính toán khác, cần năng lượng để vận hành, làm phát sinh lượng khí thải CO₂. Nhiều người dùng không biết về lượng khí thải CO₂ liên quan đến các công nghệ này. Theo một nghiên cứu mới công bố trên Frontiers in Communication, các câu hỏi đặt cho AI đều có tác động đến môi trường, nhưng không giống nhau.

Nghiên cứu này xem xét 14 LLM, mỗi LLM có quy mô dữ liệu đào tạo khác nhau. Các nhà nghiên cứu đánh giá hiệu suất của chúng bằng cách sử dụng một bộ 500 câu hỏi chuẩn hóa trên các chủ đề khác nhau. Mỗi mô hình tạo ra số lượng mã thông báo “suy nghĩ” nhất định cho mỗi truy vấn và các mã thông báo đó tương quan với lượng khí thải CO₂.

Mã thông báo suy nghĩ là các mã thông báo bổ sung mà các LLM tạo ra trước khi đưa ra câu trả lời. “Dấu chân” mã thông báo cao hơn có nghĩa là lượng khí thải CO₂ cao hơn. Tuy nhiên, điều đó không nhất thiết là câu trả lời nhận được chính xác hơn, vì chi tiết phức tạp không phải lúc nào cũng cần thiết để đảm bảo tính chính xác.

Quá trình thử nghiệm diễn ra trong hai giai đoạn. Giai đoạn đầu, nhóm nghiên cứu đặt câu hỏi trắc nghiệm giống nhau cho các mô hình. Giai đoạn tiếp theo, phản hồi tự do, các mô hình cung cấp phản hồi bằng văn bản. Trung bình, các mô hình lý luận tạo ra 543,5 mã thông báo “suy nghĩ” cho mỗi câu hỏi, so với các mô hình ngắn gọn chỉ tạo ra 37,7 mã thông báo.

Khi so sánh các phản hồi, các nhà nghiên cứu nhận thấy mô hình lý luận phức tạp hơn - có bộ dữ liệu đào tạo lớn và mất nhiều thời gian hơn để xử lý, phản hồi - làm tăng đáng kể mức tiêu thụ năng lượng và tạo ra nhiều CO₂ hơn đáng kể so với mô hình ngắn gọn. Trong một số trường hợp, các mô hình lý luận tạo ra lượng khí thải CO₂ gấp 50 lần so với các mô hình ngắn gọn.

Câu hỏi chủ đề cũng dẫn đến lượng CO₂ khác nhau. Các câu hỏi phức tạp hoặc mở hơn, ví dụ như về đại số nâng cao hoặc triết học, dẫn đến lượng CO₂ lớn hơn tới 6 lần so với câu hỏi đơn giản hơn, chẳng hạn về lịch sử cấp trung học phổ thông. Các phát hiện này làm sáng tỏ thêm những cách thường bị bỏ qua mà các mô hình AI góp phần làm tăng mức tiêu thụ điện.

Mô hình lý luận là gì?

Mô hình lý luận, đôi khi gọi là “mô hình tư duy”, đề cập đến các LLM lớn được tối ưu hóa để giải quyết các nhiệm vụ phức tạp hơn, đòi hỏi logic, phân tích từng bước hoặc hướng dẫn chi tiết. Các mô hình này thường có tên gọi khác nhau. Ví dụ, tại OpenAI, GPT-4o, GPT-4o-mini được coi là mô hình “tổng quát”, trong khi các phiên bản như o1, o3-mini được phân loại là mô hình lý luận.

Mô hình lý luận sử dụng cái mà một số nhà nghiên cứu LLM gọi là xử lý “chuỗi suy nghĩ”, cho phép chúng phản hồi có chủ đích hơn, ưu tiên tốc độ và sự rõ ràng. Mục tiêu cuối cùng của mô hình lý luận là tạo ra các phản hồi giống con người hơn. Nếu sử dụng mô hình này, hiệu ứng phụ rõ ràng nhất là các mô hình lý luận mất nhiều thời gian hơn để đưa ra câu trả lời.

Mô hình lý luận chính xác nhất mà họ kiểm tra, là mô hình Cogito, hỗ trợ lý luận với 70 tỉ tham số, đạt độ chính xác 84,9%. Mô hình này tạo ra lượng khí thải CO₂ nhiều gấp 3 lần so với các mô hình có kích thước tương tự tạo ra câu trả lời ngắn gọn.

Việc lựa chọn mô hình tạo ra sự khác biệt đáng kể về lượng khí thải CO₂. Các nhà nghiên cứu ước tính, mô hình R1 của DeepSeek (70 tỉ tham số) trả lời 600.000 câu hỏi sẽ tạo ra lượng CO₂ gần bằng lượng khí thải của một chuyến bay khứ hồi từ London đến New York. Để so sánh, mô hình Qwen 2.5 (72 tỉ tham số) có thể trả lời nhiều hơn gấp 3 lần số câu hỏi (khoảng 1,9 triệu) với tỉ lệ chính xác tương tự trong khi vẫn tạo ra cùng lượng khí thải.

Các nhà nghiên cứu cho biết, kết quả của họ có thể bị ảnh hưởng bởi sự lựa chọn phần cứng được dùng trong nghiên cứu, hệ số phát thải có thể thay đổi theo khu vực tùy thuộc sự kết hợp lưới điện địa phương và các mô hình được kiểm tra. Các yếu tố này có thể hạn chế khả năng khái quát hóa của kết quả.

Sử dụng có suy nghĩ

Theo góc nhìn về tác động đến môi trường, các mô hình lý luận luôn cho thấy lượng khí thải cao hơn, chủ yếu do số lượng mã thông báo tăng cao. Nhìn chung, các nhà nghiên cứu cho biết những phát hiện của họ cho thấy sự đánh đổi rõ ràng giữa độ chính xác của các LLM và tính bền vững của môi trường.

Các nhà nghiên cứu cho biết phát hiện của họ có thể giúp người dùng AI thực hiện các bước để giảm phát thải carbon. Nếu người dùng hiểu được các mô hình lý luận tốn nhiều năng lượng hơn, họ có thể chọn sử dụng chúng một cách tiết kiệm hơn và dựa vào các mô hình ngắn gọn cho các tác vụ hằng ngày.

Các nhà nghiên cứu hy vọng công trình của mình sẽ khiến mọi người đưa ra quyết định sáng suốt hơn về việc sử dụng AI. Người dùng có thể giảm lượng khí thải CO₂ do AI gây ra, bằng cách nhắc nhở AI tạo ra các câu trả lời ngắn gọn hoặc điều chỉnh cách sử dụng công nghệ của họ.

Maximilian Dauner, nhà nghiên cứu tại Đại học khoa học ứng dụng Hochschule München, Đức và là tác giả của nghiên cứu cho biết, nếu người dùng biết chính xác lượng CO₂ thải ra từ các sản phẩm do AI tạo ra, họ có thể sẽ có chọn lọc và suy nghĩ kỹ hơn về thời điểm và cách thức sử dụng các công nghệ này.